7 research outputs found

    Weighted time series analysis for electroencephalographic source localization

    Get PDF
    This paper presents a new method to estimate neural activity from electroencephalographic signals using a weighted time series analysis. The method considers a physiologically based linear model that takes both spatial and temporal dynamics into account and a weighting stage to modify the assumptions of the model from observations. The calculated weighting matrix is included in the cost function used to solve the dynamic inverse problem, and therefore in the Kalman filter formulation. In this way, a weighted Kalman filtering approach is proposed including a preponderance matrix. The filter’s performance (in terms of localization error) is analyzed for several SNRs. The optimal performance is achieved using the linear model with a weighting matrix computed by an inner product method

    Effort Estimation in Agile Software Development: A Systematic Map Study

    Get PDF
    Introduction − Making effort estimation as accurate and suitable for software development projects becomes a fundamental stage to favor its success, which is a difficult task, since the application of these techniques in constant changing agile development projects raises the need to evaluate different methods frequently.  Objectives− The objective of this study is to provide a state of the art on techniques of effort estimation in agile software development (ASD), performance evaluation and the drawbacks that arise in its application.  Method− A systematic mapping was developed involving the creation of research questions to provide a layout of this study, analysis of related words for the implementation of a search query to obtain related studies, application of exclusion, inclusion, and quality criteria to filter nonrelated studies and finally the organization and extraction of the necessary information from each study.   Results− 25 studies were selected; the main findings are: the most applied estimation techniques in agile contexts are: Estimation of Story Points (SP) followed by Planning Poker (PP) and Expert Judgment (EJ). The most frequent solutions supported in computational techniques such as: Naive Bayes, Regression Algorithms and Hybrid System; also, the performance evaluation measures Mean Magnitude of Relative Error (MMRE), Prediction Assessment (PRED) and Mean Absolute Error (MAE) have been found to be the most commonly used. Additionally, parameters such as feasibility, experience, and the delivery of expert knowledge, as well as the constant particularity and lack of data in the process of creating models to be applied to a limited number of environments are the challenges that arise the most when estimating software in agile software development (ASD)    Conclusions− It has been found there is an increase in the number of articles that address effort estimation in agile development, however, it becomes evident the need to improve the accuracy of the estimation by using estimation  techniques supported in machine learning  that have been shown to facilitate and improve the performance of this.  Key Words − Effort Estimation; Agile Software Development; Issues and Challenges; Automatic Learning; Performance Metrics  Introducción − Realizar una estimación de esfuerzo lo más precisa y adecuada para proyectos de desarrollo de software, se ha convertido en pieza fundamental para favorecer el éxito y desarrollo de los mismos, sin embargo, aplicar este tipo de estimación en proyectos de desarrollo ágil, en donde los cambios son constantes, la convierte en una tarea muy compleja de implementar.    Objetivo− El objetivo de este estudio es proveer un estado del arte sobre técnicas de estimación de esfuerzo en desarrollo de software ágil, la evaluación de su desempeño y los inconvenientes que se presentan en su aplicación.    Metodología− Se desarrolló un mapeo sistemático que involucró la creación de preguntas de investigación con el fin de proveer una estructura a seguir, análisis de palabras relacionadas con el tema de investigación para la creación e implementación de una cadena de búsqueda para la identificación de estudios relacionados con el tema, aplicación de criterios de exclusión, inclusión y calidad a los artículos encontrados para poder descartar estudios no relevantes y finalmente la organización y extracción de la información necesaria de cada artículo.     Resultados− De los 25 estudios seleccionados; los principales hallazgos son: las técnicas de estimación más aplicadas en contextos ágiles son: Estimación por medio de Puntos de Historia (SP) seguidos de Planning Poker (PP) y Juicio de Expertos (EJ). Soluciones soportadas en técnicas computacionales como: Naive Bayes, Algoritmos de Regresión y Sistema Híbridos; también se ha encontrado que la Magnitud Media del Error Relativo (MMRE), la Evaluación de la Predicción (PRED) y Error Absoluto Medio (MAE) son las medidas de evaluación de desempeño más usadas. Adicionalmente, se ha encontrado que parámetros como la viabilidad, la experiencia y la entrega de conocimiento de expertos, así como la constante particularidad y falta de datos en el proceso de creación de modelos para aplicarse a un limitado número de entornos son los desafíos que más se presentan al momento de realizar estimación de software en el desarrollo de software ágil (ASD)    Conclusiones− Se ha encontrado que existe un aumento en la cantidad de artículos que abordan la estimación de esfuerzo en el desarrollo ágil, sin embargo, se hace evidente la necesidad de mejorar la precisión de la estimación mediante el uso de técnicas de estimación soportadas en el aprendizaje de máquina que han demostrado que facilita y mejora el desempeño de este.    

    Agrupamiento espectral de datos dinamicos

    Get PDF
    El análisis de datos dinámicos o variantes en el tiempo es un tema de gran interés actual para la comunidad científica, especialmente, en los campos de reconocimiento de patrones y aprendizaje de máquina. Existe un amplio espectro de aplicaciones en donde el análisis de datos dinámicos toma lugar, tales como el análisis de video, la identificación de movimiento, la segmentación de movimientos de personas y el seguimiento de naves aéreas, entre otras. Una de las alternativas para desarrollar métodos dinámicos es el análisis matricial espectral. Las técnicas espectrales, principalmente aquellas basadas en kernels, han demostrado su alta aplicabilidad en diversos aspectos del reconocimiento de patrones y aprendizaje de máquina, incluso cuando los datos son variantes en el tiempo, tales como la estimación del número de grupos, agrupamiento y clasificación. La mayoría de los métodos espectrales han sido diseñados para el análisis de datos estáticos, descartando la información temporal, es decir, omitiendo el comportamiento y la evolución de los datos a lo largo del tiempo. En el estado del arte se encuentran algunos trabajos que consideran el efecto de la variación en el tiempo,sin embargo, el diseño de un método que permita seguir la dinámica de los datos y agrupar los mismos en ambientes de tiempo real, con alta fidelidad y precisión, es aún un problema abierto. En este trabajo de tesis se presenta un método de agrupamiento espectral basado en kernels diseñado a partir de un enfoque primal-dual con el fin de realizar el proceso de agrupamiento considerando la información dinámica, es decir, los cambios de secuencia de los datos a lo largo del tiempo. Para este propósito, se plantea un esquema de agrupamiento que consiste en la extensión de una formulación primal-dual al análisis de datos dinámicos a través de un kernel dinámico. El esquema se basa en un aprendizaje de múltiples kernels (MKL) y se denomina dynamic kernel spectral clustering (DKSC). El método DKSC usa como modelo de MKL una combinación lineal de matrices kernel. Las matrices kernel se calculan a partir de una secuencia de datos representada por un conjunto de matrices de datos. Subsecuentemente, se obtiene una matriz acumulada de kernel de tal forma que los coeficientes o factores de ponderación del modelo son considerados como valores de evaluación de cada muestra del conjunto de datos o frame. Dicha evaluación se hace a partir de un novedoso método de tracking que se basa en la descomposición espectral de una matriz kernel generalizada. Finalmente, para la obtención de las asignaciones de grupo resultantes, los datos son agrupados usando la matriz acumulada como matriz kernel.Abstract : The analysis of dynamic or time-varying data has emerged as an issue of great interest taking increasingly an important place in scientific community, especially in automation, pattern recognition and machine learning. There exists a broad range of important applications such as video analysis, motion identification, segmentation of human motion and airplane tracking, among others. Spectral matrix analysis is one of the approaches to address this issue. Spectral techniques, mainly those based on kernels, have proved to be a suitable tool in several aspects of interest in pattern recognition and machine learning even when data are time-varying, such as the estimation of the number of clusters, clustering and classification. Most of spectral clustering approaches have been designed for analyzing static data, discarding the temporal information, i.e. the evolutionary behavior along time. Some works have been developed to deal with the time varying effect. Nonetheless, an approach able to accurately track and cluster time-varying data in real time applications remains an open issue. This thesis describes the design of a kernel-based dynamic spectral clustering using a primaldual approach so as to carry out the grouping task involving the dynamic information, that is to say, the changes of data frames along time. To this end, a dynamic kernel framework aimed to extend a clustering primal formulation to dynamic data analysis is introduced. Such framework is founded on a multiple kernel learning (MKL) approach. Proposed clustering approach, named dynamic kernel spectral clustering (DKSC) uses a linear combination of kernels matrices as a MKL model. Kernel matrices are computed from an input frame sequence represented by data matrices. Then, a cumulative kernel is obtained, being the model coefficients or weighting factors obtained by ranking each sample contained in the frame. Such ranking corresponds to a novel tracking approach that takes advantages of the spectral decomposition of a generalized kernel matrix. Finally, to get the resultant cluster assignments, data are clustered using the cumulative kernel matrix. Experiments are done over real databases (human motion and moon covered by clouds)as well as artificial data (moving-Gaussian clouds). As a main result, proposed spectral clustering method for dynamic data proved to be able for grouping underlying events and movements and detecting hidden objects as well. The proposed approach may represent a contribution to the pattern recognition field, mainly, for solving problems involving dynamic information aimed to either tracking or clustering of data.Doctorad

    Estudio comparativo de métodos de agrupamiento no supervisado de latidos de señales ECG

    Get PDF
    En este trabajo se presenta un estudio comparativo de diferentes técnicas de agrupamiento no supervisado con enfoque particional y espectral, orientado a la agrupación de patrones representativos de latidos extraídos de registros electrocardiográficos ambulatorios. Debido a la naturaleza de las señales estudiadas y a que, en muchos casos, no es factible el etiquetado de las mismas, se prefieren las técnicas de agrupamiento no supervisado para su análisis. El uso de un modelo genérico de agrupamiento particional y la estimación de parámetros de inicialización adecuados empleando técnicas espectrales, son algunos de los aportes m´as significativos de esta investigación. Los experimentos se realizan sobre una base de datos de arritmias estándar del MIT (Massachusetts Institute of Technology) y la extracción de características se hace con técnicas recomendadas por la literatura. Otro aporte importante, es el desarrollo de un método de análisis por segmentos que reduce el costo computacional y mejora el desempeño del agrupamiento en comparación con el análisis tradicional, es decir, analizando todo el conjunto de datos en una sola iteracción del procedimiento. Adicionalmente, se sugiere un esquema completo de análisis no supervisado de señales ECG, incluyendo etapas de caracterización, selección de características, estimación del número de grupos, inicialización y agrupamiento. También se diseñan medidas adecuadas de desempeño, basadas en la conformación de los grupos, que relacionan el agrupamiento con el número de grupos empleados y costo computacional. Este estudio se realiza teniendo en cuenta las recomendaciones de la AAMI (Association for the Advanced of Medical Instrumentation) / Abstract: This work presents a comparative study of different partitional and spectral clustering techniques to cluster heartbeats patterns of long-term ECG signals. Due to the nature of signals and since, in many cases, it is not feasible labeling thereof, clustering is preferred for analysis. The use of a generic model of partitional clustering and the appropriate estimation of initialization parameters via spectral techniques represent some of the most important contributions of this research. The experiments are done with a standard arrhythmia database of MIT (Massachusetts Institute of Technology) and the feature extraction is carried out using techniques recommended by literature. Another important contribution is the design of a sequential analysis method which reduces the computational cost and improves clustering performance compared to traditional analysis that is, analyzing the whole data set in one iteration. Additionally, it suggests a complete system for unsupervised analysis of ECG signals, including feature extraction, feature selection, initialization and clustering stages. Also, some appropriate performance measures based on groups analysis were designed, which relate the clustering performance with the number of resultants groups and computational cost. This study is done taking into account the AAMI standard (Association for the Advance of Medical Instrumentation).Maestrí

    Weighted time series analysis for electroencephalographic source localization

    No full text
    This paper presents a new method to estimate neural activity from electroencephalographic signals using a weighted time series analysis. The method considers a physiologically based linear model that takes both spatial and temporal dynamics into account and a weighting stage to modify the assumptions of the model from observations. The calculated weighting matrix is included in the cost function used to solve the dynamic inverse problem, and therefore in the Kalman filter formulation. In this way, a weighted Kalman filtering approach is proposed including a preponderance matrix. The filter's performance (in terms of localization error) is analyzed for several SNRs. The optimal performance is achieved using the linear model with a weighting matrix computed by an inner product methodEste artículo presenta un nuevo método para la estimación de actividad neuronal a partir de señales electroencefalográficas usando análisis de series de tiempo ponderadas. El método considera un modelo lineal basado en restricciones fisiológicas que tiene en cuenta tanto la dinámica espacial como la temporal, y una etapa de ponderación que modifica las suposiciones del modelo a partir de las observaciones. La matriz de pesos calculada es incluida en la función de costo usada para solucionar el problema inverso dinámico, y por lo tanto en la formulación del filtro de Kalman. De esta forma, se propone un filtro de Kalman ponderado que incluye la matriz de pesos. El desempeño del filtro (en términos del error de localización) se analiza para varios SNRs. El desempeño óptimo se alcanza usando el modelo lineal con matriz de ponderación calculado por el método de producto intern

    Empleo del estropajo común (Luffa cylindrica) en la remoción de contaminantes.

    Get PDF
    Interesa a la ingeniería, el desarrollo biotecnológico de técnicas de tratamiento de agua para la remoción de contaminantes, aprovechando las propiedades de las fibras de Luffa cylindrica (FLc). Así lo exponen los argumentos explicados en varias investigaciones realizadas en todo el mundo en las que se describe un sugestivo escenario de razones válidas para considerar a la fibra del estropajo, como un material industrialmente promisorio y sostenible, apto para la realización de tratamientos de remoción de contaminantes y en la separación de sustancias inmersas en matrices fluidas. También explican la utilización de las fibras como matriz inmovilizadora para sostener comunidades microbianas activas implantadas con fines específicos; incluso, al comprender la arquitectura y las propiedades mecánicas de las FLc, se explora su utilización como agregado en la obtención de materiales compuestos, en la producción de nuevas sustancias y su capacidad para retener humedad. El presente artículo se refiere a la descripción de los procesos de adsorción e inmovilización en los que se ha involucrado a las FLc haciendo una revisión de experiencias investigativas. A la vez se estudian, los razonamientos que han permitido describir las técnicas y que posibilitan el aporte de soluciones al problema de la remoción de contaminantes y del tratamiento de agua

    Methodology for the design and simulation of industrial facilities and production systems based on a modular approach in an "industry 4.0" context

    No full text
    The design of the industrial facilities distribution is one of the most important decisions to be made, as it will condition the operation thereof. The concept of industrial installation as it is known today has evolved to the point that it integrates automation and information systems. Indeed, such evolution has given rise to the so-called intelligent factory. At present, in order to produce customized mass products according to customers' requirements, it is become an important issue the distribution of facilities with the generation of successful layout designs, based on the flexibility, modularity and easy configuration of production systems. This paper proposes a methodology to solve the problem of plant distribution design and redesign based upon a novel modular approach within an industry 4.0 context. Proposed methodology is an adaptation of the "SLP" Methodology (Systematic Layout Planning-Simulation) so-called SLP Modulary 4.0 (systematic planning of the Layout based on a modular vision under a context of Industry 4.0); this methodology incorporates in its structure an integrated design system (IDS) into its structure, which allows collaborative work with different CAD design and simulation tools. For the validation of the proposed methodology, a case study of a coffee processing plant is considered. The distribution design results obtained from the case study prove the benefit and usefulness of the proposed methodologyEl diseño de la distribución en planta es una de las decisiones más relevantes pues condicionará la operación de la misma. La forma de concebir una instalación industrial como se la conoce hoy en día ha ido evolucionando hasta el punto de integrar sistemas de automatización y de información, dando lugar a la denominada fabrica inteligente. En la actualidad, con el fin de producir productos personalizados en masa según requerimientos de los clientes, ha tomado considerable importancia la distribución de instalaciones con la generación de diseños exitosos de layout, basados en la flexibilidad, modularidad y fácil configuración de los sistemas de producción. En este trabajo se propone una metodología para resolver el problema del diseño y rediseño de distribución en planta con un novedoso enfoque modular basado en un contexto de industria 4.0. La metodología presentada es una adaptación de la Metodología “SLP” (Systematic Layout Planning) denominada SLP Modulary 4.0 (planificación sistemática de Layout basada en una visión modular bajo un contexto de Industria 4.0), esta metodología incorpora en su estructura un diseño integrado de sistemas (IDS) que permite trabajar de forma colaborativa con diferentes herramientas de Diseño CAD y simulación. Para la validación de la metodología propuesta se considera un caso de estudio de una planta de procesado de café. Los resultados de diseño de distribución obtenidos comprueban el beneficio y la utilidad de la metodología propuest
    corecore